• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "애플리케이션 성능 관리"에 대한 통합 검색 내용이 4,196개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
IBM, 국내서도 AWS 마켓플레이스 소프트웨어 포트폴리오 확대
IBM은 한국을 포함한 전 세계 92개국에서 아마존웹서비스(AWS) 마켓플레이스를 통해 공급하는 자사 소프트웨어 포트폴리오를 확대한다고 발표했다. AWS 마켓플레이스는 AWS에서 가동되는 소프트웨어를 쉽게 찾고, 테스트, 구매, 배포할 수 있도록 독립 소프트웨어 벤더(ISV)의 수천 개 소프트웨어 목록을 제공하는 디지털 카탈로그다. 이미 IBM 소프트웨어가 제공되는 덴마크, 프랑스, 독일, 영국, 미국을 시작으로 서비스 국가가 확대되면서, 고객은 보다 간단한 구매 절차를 통해 AWS 약정 비용을 IBM 소프트웨어 구매에 사용해 효율을 높일 수 있다. 글로벌 시장조사기업 카날리스(Canalys)의 연구에 따르면 클라우드 마켓플레이스들은 지난 5년간 연평균 84% 성장률을 기록하며 450억 달러 규모로 성장할 것으로 예상돼 서비스형 소프트웨어(SaaS) 시장에서 가장 빠르게 발전하는 시장으로 부상했다. 마켓플레이스는 구매 주기 단축, 결제 통합, 소프트웨어 배포의 신속한 확장에 도움이 된다. 이번 발표를 통해 고객은 AWS 마켓플레이스에서 44개의 제품 라인업과 29개의 SaaS 제품 등 IBM의 인공지능(AI) 및 데이터 기술을 더 많이 이용할 수 있게 된다. 여기에는 기업이 AI 프로젝트를 구축, 확장 및 관리할 수 있도록 지원하는 왓슨x의 구성 요소가 포함되어 있다. 개방형 데이터 레이크하우스 구조에 구축된 맞춤형 데이터 저장소인 왓슨x.데이터와 AI 개발자를 위한 차세대 기업용 플랫폼인 왓슨x.ai를 이용할 수 있으며, IBM의 AI 어시스턴트인 왓슨x.어시스턴트와 왓슨x. 오케스트레이트도 이용할 수 있다. 왓슨x.거버넌스는 곧 출시될 예정이다. 다른 소프트웨어로는 IBM의 대표 데이터베이스인 데이터용 Db2 클라우드 팩과 앱티오(Apptio), 터보노믹(Turbonomic), 인스타나(Instana)를 포함한 자동화 소프트웨어 포트폴리오, IBM 보안 및 지속 가능성 소프트웨어 포트폴리오가 있다. 모두 AWS 기반의 레드햇 오픈시프트 서비스를 기반으로 구축되었다. 고객은 클라우드 중심 소프트웨어(cloud-native)를 통해 AWS에 소프트웨어를 배포할 수 있으며, SaaS 및 구독을 포함한 유연한 라이선싱을 통해 고객이 원하는 방식으로 쉽게 구매할 수 있다. 또한, IBM은 AWS 마켓플레이스에서 AWS 전용으로 설계된 15개의 새로운 IBM 컨설팅 전문 서비스 및 자산을 출시한다. 고객의 요구와 수요에 맞춰 데이터 및 애플리케이션 현대화, 보안 서비스, 맞춤형 산업별 솔루션에 중점을 두고 있으며, 일부 서비스에는 생성형 AI 기능이 포함된다. 또한 IBM 컨설팅은 2만 4000개의 AWS 인증과 최신 AWS 기술 전문가로 구성된 전담 팀을 통해 업계 모범 사례에 기반한 맞춤형 추천으로 고객을 지원할 예정이다. AWS의 매트 얀치신(Matt Yanchyshyn) AWS 마켓플레이스 및 파트너 서비스 총괄 매니저는 “IBM의 글로벌 확장은 양사의 전 세계 고객들에게 혁신의 기회를 열어줄 것”이라면서, “이제 고객들은 AWS 마켓플레이스의 속도와 간소화된 절차를 활용해 IBM의 최첨단 솔루션에 보다 쉽게 접근함으로써 디지털 혁신을 가속화하고 대규모 혁신을 추진할 수 있다. AWS와 IBM의 이번 협력 확대는 오늘날의 급변하는 환경에서 고객이 성공하는 데 필요한 도구와 리소스를 제공하려는 양사 공동의 노력이 반영된 것”이라고 말했다. IBM의 닉 오토(Nick Otto) 글로벌 전략적 파트너십 총괄은 “AWS 마켓플레이스에서 IBM 소프트웨어 포트폴리오의 가용성을 확대해 전 세계 기업들이 비즈니스 발전에 도움이 되는 다양한 IBM AI 및 하이브리드 클라우드 제품을 보다 간소화된 방식으로 활용할 수 있게 될 것”이라며, “AWS와의 협력은 고객의 요구를 충족하기 위해 다른 기업과 협력하여 고객이 IBM과 최대한 쉽게 비즈니스를 진행하고 혁신을 가속화하는 방법을 보여주는 대표적인 예”라고 말했다.
작성일 : 2024-05-03
아비바, 산업 인텔리전스 플랫폼 ‘커넥트’ 출시
아비바가 산업 인텔리전스 플랫폼인 ‘커넥트(CONNECT)’를 공개했다. 기존에 ‘아비바 커넥트’에서 ‘커넥트’로 변경된 이 플랫폼은 슈나이더 일렉트릭, RIB, ETAP 및 광범위한 파트너 공급업체의 애플리케이션의 연동을 지원하여 고객이 운영하고 있는 산업 생태계 전반의 인사이트를 통합하고, 지능형 디지털 트윈을 구축할 수 있도록 돕는다. 이를 통해 고객은 각 분야의 의사결정권자가 신뢰할 수 있고 실행 가능한 인사이트를 기반으로 성과를 높이고 효율성을 최적화하는 동시에 지속가능성을 극대화하여 ROI를 높일 수 있다. 새롭게 출시된 커넥트는 전체 산업 라이프사이클을 실시간으로 아우르는 개방적이고 중립적인 디지털 플랫폼으로, 기본 데이터 서비스, 시각화 서비스, 모델링 및 분석 기능, 애플리케이션 개발 서비스와 더불어 서비스 및 사용 관리 기능을 제공한다. 데이터, 디지털 트윈, 산업 인공지능, 심층적인 도메인 전문 지식을 단일 환경 내에 통합하며, 마이크로소프트 애저(Microsoft Azure) 클라우드 기반으로 고객이 역량을 손쉽게 확장하고 향상된의 지속가능성을 경험할 수 있도록 지원한다. 커넥트는 원격 자산, 아비바의 애플리케이션, 타사 데이터 소스를 하나의 안전한 단일 플랫폼으로 결합하여 산업 기업이 클라우드에 대한 기술 투자를 최대한 활용할 수 있도록 지원함으로써 고유한 산업 생태계를 구축할 수 있도록 한다. 아비바에 따르면 현재 전 세계에서 수만 명의 월간 액티브 유저가 커넥트를 사용하고 있다. 커넥트에서 지원되는 주요 제품으로는 아비바 파이(AVEVA PI) 시스템, AVEVA Operations Control(운영 제어), AVEVA Unified Engineering(통합 엔지니어링), AVEVA Advanced Analytics(고급 분석), AVEVA Asset Information Managament(자산 정보 관리), RIB CostX 등이 있다.     한편, 아비바는 새로운 산업 애플리케이션 시장의 기반을 형성하기 위해 커넥트 중심의 다양한 파트너십을 확대하고 있다고 전했다. 예를 들어, 아비바와 마이크로소프트는 아비바의 산업 인텔리전스 플랫폼인 커넥트와 마이크로소프트의 제조업 클라우드(Microsoft Cloud for Manufacturing)를 사용하여 생산 실행 데이터와 공급망 생산 계획 데이터를 마이크로소프트 패브릭(Microsoft Fabric)에서 통합하고 컨텍스트화한다. 아비바의 캐스퍼 허즈버그(Caspar Herzberg) CEO는 “연결된 산업 경제 전략은 생태계 전반에서 글로벌 협업의 이점을 실현한다. 업계를 선도하는 산업 인텔리전스 플랫폼인 커넥트를 통해 산업 조직에서는 가치 사슬에 대한 총체적인 이해를 바탕으로 모든 단계에서 실시간 혁신을 촉진할 수 있다. 분석과 AI로 강화된 고유의 강력한 데이터 에코시스템은 마찰이 발생하지 않는 단일 환경에서 탁월한 효율성을 제공하여, 더 스마트하게 엔지니어링하고, 더 효율적으로 운영하며, 수익성을 높일 수 있도록 지원한다”고 말했다. 또한 “커넥트는 산업 디지털 트랜스포메이션의 다음 물결(Industrial DX 2.0)을 가속한다. 클라우드에서 서비스되는 AI 기반 플랫폼이 산업 정보를 공유하고 통합하여 기업, 파트너 및 고객의 효율성, 생산성 및 지속 가능성을 향상시킨다. 워크플로 간소화부터 실시간 모니터링 및 제어, 원격 협업 개선, 산업 자산의 엔드 투 엔드 수명 주기 성능 극대화에 이르기까지 업계의 디지털 트랜스포메이션 요구 사항을 해결한다”고 덧붙였다.
작성일 : 2024-05-03
오픈AI CLIP 모델의 이해/코드 분석/개발/사용
BIM 칼럼니스트 강태욱의 이슈 & 토크   이번 호에서는 생성형 AI의 멀티모달 딥러닝 기술 확산의 계기가 된 오픈AI(OpenAI)의 CLIP(Contrastive Language-Image Pre-Training, 2021) 코드 개발 과정을 분석하고, 사용하는 방법을 정리한다.    ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 이메일 | laputa99999@gmail.com 페이스북 | www.facebook.com/laputa999 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | http://www.facebook.com/groups/digestpodcast CLIP은 구글이 개발한 자연어 번역 목적의 트랜스포머 모델, 비전 데이터 변환에 사용되는 VAE(Variational Autoencoder) 개념을 사용하여 멀티모달 학습 방식을 구현하였다. 이번 호에서는 그 과정을 설명하고 파이토치로 직접 구현하는 과정을 보여준다. CLIP을 이용하면 유튜브, 넷플릭스와 같은 영상에서 자연어로 질의해 해당 장면을 효과적으로 검색할 수 있다. 참고로, CLIP에서는 트랜스포머가 핵심 컴포넌트로 사용되었다. CLIP과 같이 트랜스포머가 자연어 번역 이외에 멀티모달의 핵심 기술이 된 이유는 비정형 데이터를 연산 가능한 차원으로 수치화할 수 있는 임베딩 기술의 발전과 트랜스포머의 Key, Query, Value 입력을 통한 여러 학습 데이터 조합이 가능한 특징이 크게 작용했다.    그림 1. 멀티모달 시작을 알린 오픈AI의 CLIP 모델(Learning Transferable Visual Models From Natural Language Supervision, 2021)   트랜스포머와 VAE를 이용한 멀티모달 CLIP 네트워크를 좀 더 깊게 파헤쳐 보도록 한다. 앞서 설명된 트랜스포머, 임베딩과 관련된 개념에 익숙하다면, CLIP을 이해하고 구현하는 것이 그리 어렵지는 않을 것이다.    CLIP에 대한 이해 오픈AI에서 개발한 CLIP 모델은 공유 임베딩 공간 내에서 이미지 및 텍스트 형식을 통합하는 것을 목표로 했다. 이 개념은 기술과 함께 이미지와 텍스트를 넘어 다른 양식을 수용한다.(멀티모달) 예를 들어, 유튜브 등 비디오 애플리케이션 내에서 텍스트 검색 성능을 개선하기 위해 공통 임베딩 공간에서 비디오 및 텍스트 형식을 결합하여 모델을 학습시켰다. 사실, 임베딩 텐서를 잠재 공간(Latent Space)으로 이기종 데이터를 변환, 계산, 역변환할 수 있다는 아이디어는 VAE 기술, 구글의 트랜스포머 논문(2017)을 통해 개발자들 사이에 암시되어 있었다. 이를 실제로 시도해본 연구가 CLIP이다.  참고로, CLAP(Contrastive Language-Audio Pretraining)은 동일한 임베딩 공간 내에서 텍스트와 오디오 형식을 통합하는 또 다른 모델로, 오디오 애플리케이션 내에서 검색 기능을 개선하는 데 유용하다. CLIP은 다음과 같은 응용에 유용하다. 이미지 분류 및 검색 : CLIP은 이미지를 자연어 설명과 연결하여 이미지 분류 작업에 사용할 수 있다. 사용자가 텍스트 쿼리를 사용하여 이미지를 검색할 수 있는 보다 다양하고 유연한 이미지 검색 시스템을 허용한다. 콘텐츠 조정 : CLIP은 부적절하거나 유해한 콘텐츠를 식별하고 필터링하기 위해 이미지와 함께 제공되는 텍스트를 분석하여, 온라인 플랫폼의 콘텐츠를 조정하는 데 사용할 수 있다. 참고로, 메타 AI(Meta AI)는 최근 이미지, 텍스트, 오디오, 깊이, 열, IMU 데이터 등 6가지 양식에 걸쳐 공동 임베딩을 학습하는 이미지바인드(ImageBind)를 출시했다. 두 가지 모달리티를 수용하는 최초의 대규모 AI 모델인 CLIP은 이미지바인드 및 기타 다중 모달리티 AI 시스템을 이해하기 위한 전제 조건이다. CLIP은 배치 내에서 어떤 N×N(이미지, 텍스트) 쌍이 실제 일치하는지 예측하도록 설계되었다. CLIP은 이미지 인코더와 텍스트 인코더의 공동 학습을 통해 멀티모달 임베딩 공간을 만든다. CLIP 손실은 트랜스포머의 어텐션 모델을 사용하여, 학습 데이터 배치에서 N개 쌍에 대한 이미지와 텍스트 임베딩 간의 코사인 유사성을 최대화하는 것을 목표로 한다.  다음은 이를 설명하는 의사코드이다. 1. img_en = image_encoder(I)   # [n, d_i] 이미지 임베딩 인코딩을 통한 특징 추출  2. txtxt_emdn = textxt_emdncoder(T)    # [n, d_t] 텍스트 임베딩 인코딩을 통한 특징 추출 3. img_emd = l2_normalize(np.dot(img_en, W_i), axis=1)    # I×W 결합(조인트) 멀티모달 임베딩 텐서 계산 4. txt_emd = l2_normalize(np.dot(txtxt_emdn, W_t), axis=1)  # T×W 결합(조인트) 멀티모달 임베딩 텐서 계산 5. logits = np.dot(img_emd, txt_emd.T) * np.exp(t)   # I×T * E^t 함수를 이용한 [n, n]코사인 유사도 계산 6. labels = np.arange(n) 7. loss_i = cross_entropy_loss(logits, labels, axis=0)  # 이미지 참값 logits과 예측된 label간 손실 8. loss_t = cross_entropy_loss(logits, labels, axis=1)  # 텍스트 참값 logits과 예측된 label간 손실 9. loss = (loss_i + loss_t)/2   # 이미지, 텍스트 손실 평균값   실제 오픈AI 논문에는 <그림 2>와 같이 기술되어 있다.(동일하다.)   그림 2     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2024-05-02
RTX A400/A1000 : AI 기반 워크플로 강화하는 전문가용 GPU
개발 및 공급 : 엔비디아 주요 특징 : AI 처리를 위한 3세대 텐서 코어 및 레이 트레이싱을 위한 2세대 RT 코어 탑재, 암페어 아키텍처 기반의 CUDA 코어 탑재해 그래픽/컴퓨팅 처리속도 향상, 전문가 작업의 데이터를 처리속도 향상 위한 메모리 대역폭 증가, 효율적인 비디오 처리를 위한 인코딩/디코딩 엔진 탑재 등   엔비디아가 새로운 엔비디아 RTX A400과 RTX A1000 GPU를 통해 RTX 전문가용 그래픽 제품을 확장하고, 디자인을 비롯한 AI 기반 생산성 워크플로를 강화한다고 밝혔다. 디자인과 생산성 애플리케이션 전반에 걸친 AI 통합이 새로운 기준으로 자리잡으면서 고급 컴퓨팅 성능에 대한 수요가 증가하고 있다. 즉, 전문가와 크리에이터들은 프로젝트의 규모와 복잡성 또는 범위에 관계없이 향상된 컴퓨팅 성능을 활용해야 한다. 엔비디아 암페어(Ampere) 아키텍처 기반의 RTX A400과 RTX A1000 GPU는 이렇게 증가하는 수요를 충족하기 위해 개발됐으며, AI와 레이 트레이싱 기술에 대한 접근성을 확대해 전문가들이 일상적인 워크플로를 혁신하는데 필요한 도구를 제공한다.   ▲ 엔비디아 RTX A400   향상된 성능으로 창의성 및 효율 향상 지원 RTX A400 GPU는 RTX 400 시리즈 GPU에 가속화된 레이 트레이싱과 AI를 도입했다. 이 GPU는 AI 처리를 위한 24개의 텐서 코어(Tensor Cores)를 탑재해 기존 CPU 기반 솔루션을 넘는 성능을 제공한다. 이를 통해 전문가들은 지능형 챗봇, 코파일럿과 같은 최첨단 AI 애플리케이션을 데스크톱에서 직접 실행할 수 있다. 또한 GPU는 실시간 레이 트레이싱을 제공하므로 크리에이터는 생생하고 물리적 정확도가 높은 3D 렌더링을 제작할 수 있다. A400은 시리즈 최초로 4개의 디스플레이 출력을 지원해 금융 서비스, 명령과 제어, 유통, 운송과 같은 산업에 필수적인 고밀도 디스플레이 환경에 적합하다. 엔비디아 RTX A1000 GPU는 RTX 1000 시리즈 GPU에 처음으로 텐서 코어와 RT 코어를 도입했다. 이를 통해 전문가와 크리에이터를 위한 가속화된 AI와 레이 트레이싱 성능을 제공한다. A1000은 72개의 텐서 코어를 탑재해 이전 세대에 비해 업그레이드된 성능을 갖췄다. 스테이블 디퓨전(Stable Diffusion)과 같은 도구에서 3배 이상 빠른 생성형 AI 프로세싱을 제공하며, 18개의 RT 코어는 그래픽과 렌더링 작업 속도를 최대 3배까지 높여 2D와 3D CAD, 제품과 건축 설계, 4K 비디오 편집과 같은 전문적인 워크플로를 가속화한다. 더불어 A1000은 이전 세대보다 최대 38% 더 많은 인코딩 스트림을 처리하고 2배 더 빠른 디코딩 성능을 제공하는 등 비디오 처리 능력을 높였다.   ▲ 엔비디아 RTX A1000   차세대 기능을 통한 성능 강화 A400과 A1000 GPU는 싱글 슬롯 디자인에 전력소비량이 50W이며, 콤팩트하고 에너지 효율적인 워크스테이션을 위해 향상된 기능을 제공한다.  2세대 RT 코어 : 건축 도면, 3D 디자인, 콘텐츠 제작 등 모든 전문 워크플로를 위한 실시간 레이 트레이싱, 사실적인 물리 기반 렌더링과 시각화, 정확한 조명과 그림자 시뮬레이션으로 작업 품질을 높일 수 있다. 3세대 텐서 코어 : 생성형 AI, 이미지 렌더링 노이즈 제거, 딥러닝 슈퍼 샘플링과 같은 AI 증강 도구와 애플리케이션을 가속화해 이미지 생성 속도와 품질을 개선한다.  암페어 아키텍처 기반 쿠다 코어 : 암페어 아키텍처 기반의 쿠다(CUDA) 코어는 이전 세대 대비 최대 2배의 단정밀도 부동 소수점 처리량으로 그래픽과 컴퓨팅 워크로드의 속도를 크게 높인다. 4GB/8GB 메모리 : A400 GPU의 4GB와 A1000 GPU의 8GB GPU 메모리는 다양한 전문가용 요구 사항을 충족한다. 여기에는 기본적인 그래픽 디자인과 사진 편집부터 텍스처나 고해상도 편집, 데이터 분석이 필요한 까다로운 3D 모델링 등이 포함된다. 또한 이 GPU들은 이전 세대보다 메모리 대역폭이 증가해 데이터를 더 빠르게 처리하고 대용량 데이터 세트와 장면을 더 원활하게 처리할 수 있다. 인코딩/디코딩 엔진 : 7세대 인코드(NVENC)와 5세대 디코드(NVDEC) 엔진을 탑재한 새 GPU는 효율적인 비디오 처리를 기능을 제공한다. 이를 통해 초저지연으로 고해상도 비디오 편집, 스트리밍, 재생을 지원한다. 또한 AV1 디코드가 포함돼 더 많은 비디오 포맷을 더 효율적이고 원활하게 재생할 수 있다.   RTX 솔루션의 활용 범위 확대 엔비디아는 새로운 GPU가 최첨단 AI, 그래픽, 컴퓨팅 기능 등을 통해 사용자의 생산성을 높이고 창의적인 가능성을 열어준다고 전했다. 레이 트레이싱 렌더링과 AI가 포함된 고급 워크플로를 통해 전문가들은 작업의 한계를 뛰어넘고 놀라운 수준의 사실감을 구현할 수 있다. 기획 담당자들은 강력하고 에너지 효율적인 새로운 컴퓨팅 솔루션을 에지 배포에 사용할 수 있다. 크리에이터는 편집과 렌더링 속도를 높여 더욱 풍부한 시각적 콘텐츠를 제작할 수 있다. 건축가와 엔지니어는 아이디어를 3D CAD 개념에서 실제 디자인으로 원활하게 전환할 수 있다. 스마트 공간에서 작업하는 경우에는 공간 제약이 있는 환경에서 실시간 데이터 처리, AI 기반 보안, 디지털 사이니지 관리 등에 GPU를 사용할 수 있다. 또한 의료 전문가들은 더 빠르고 정밀한 의료 영상 분석을 수행할 수 있다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2024-05-02
라이젠 프로 8040/8000 시리즈 : AI로 생산성 높이는 기업용 PC 프로세서
개발 및 공급 : AMD 주요 특징 : 4nm 젠 4 아키텍처 기반으로 성능 및 전력 효율 향상, 와이파이 7 기술 지원, 일부 모델에 NPU 기반 AI 엔진 탑재 등     AMD는 비즈니스 환경에서 높은 생산성과 프리미엄급 AI 및 연결 경험을 제공하는 새로운 기업용 모바일 및 데스크톱 AI PC 프로세서를 공개했다. 새로운 AMD 라이젠 프로 8040(Ryzen PRO 8040) 시리즈는 기업용 노트북과 모바일 워크스테이션을 위해 개발된 x86 프로세서이다. AMD는 비즈니스 사용자를 위한 AI 지원 데스크톱 프로세서인 AMD 라이젠 프로 8000 시리즈 데스크톱 프로세서도 출시했다. 이 제품은 낮은 전력 소모로 첨단 성능을 제공하도록 설계되었다. AMD는 이번에 새롭게 공개된 일부 모델에 AMD 라이젠 AI(AMD Ryzen AI)를 탑재했다. 새로운 라이젠 AI 기반 프로세서는 CPU, GPU 및 전용 온칩 NPU(Neural Processing Unit)를 탑재한다. 전용 NPU의 경우 최대 16 TOPS의 연산 성능을 제공하며, 전체 시스템은 최대 39 TOPS로 이전 세대보다 향상된 전용 AI 프로세싱 성능을 제공한다. 새로운 라이젠 AI 지원 프로세서를 장착한 기업용 PC는 AI 기반 협업과 콘텐츠 제작, 데이터 및 분석 워크로드에서 더 높은 성능과 향상된 사용자 경험을 제공한다. 또한, AMD 프로 기술이 추가됨에 따라 IT 관리자들은 IT 운영을 간소화하고, 조직 전반에 걸쳐 보다 신속하게 PC를 구축할 수 있는 엔터프라이즈급 관리 기능을 사용할 수 있다. AMD는 정교한 공격으로부터 프로세서와 클라우드를 방어할 수 있는 통합 보안 기능 및 안정성과 신뢰성 및 플랫폼 수명을 갖춘 엔터프라이즈 소프트웨어 등의 이점을 제공한다고 전했다. 새로운 라이젠 프로 8040 시리즈 모바일 프로세서는 2024년 2분기부터 HP와 레노버를 포함한 OEM 파트너사를 통해 공급될 예정이며, 라이젠 프로 8000 시리즈 데스크톱 프로세서는 2024년 2분기부터 OEM 파트너사인 HP와 레노버, 일부 채널 파트너 플랫폼을 통해 공급될 예정이다.   라이젠 프로 8040 시리즈      전문가용 노트북 및 모바일 워크스테이션을 위한 AMD 라이젠 프로 8040 시리즈 모바일 프로세서는 집약적인 비즈니스 및 AI 워크로드에 최적화된 효율과 프로세싱 성능을 제공한다. 이 프로세서는 까다로운 모바일 워크스테이션 애플리케이션에서 최대 30% 향상된 성능을 제공하는 4nm의 ‘젠 4(Zen 4)’ 아키텍처를 기반으로 하며, 최대 8개의 고성능 코어를 탑재한다. 일부 모델에는 AMD 라이젠 AI를 탑재하고 AMD RDNA 3 그래픽을 통합했는데, AMD는 “경쟁사 프로세서 대비 화상회의 시 84% 더 적은 전력으로 최대 72% 더 높은 성능을 제공한다”고 설명했다. 또한, 라이젠 프로 8040 시리즈 프로세서 기반 PC는 와이파이 7(WiFi-7) 기술도 활용할 수 있다. 시리즈 중 최상위 제품인 AMD 라이젠 9 프로 8945HS는 8개의 코어와 16개의 스레드, 24MB 캐시 및 라데온(Radeon) 780M 그래픽을 탑재하고 있다. 이 프로세서는 테크니컬 컴퓨팅, 멀티미디어 콘텐츠 제작, 개별 그래픽 등 리소스 집약적 애플리케이션에 필요한 연산 성능을 제공하며, 3D 렌더링, 비디오 인코딩 및 사진 편집 등과 같은 까다로운 그래픽 관련 워크로드를 처리한다. 이번에 발표된 라이젠 프로 8040 시리즈는 6 코어 12 스레드의 라이젠 5 프로 8540U부터 8 코어 16 스레드의 라이젠 9 프로 8945HS까지 8종이다. 이 중 8540U를 제외한 7개 제품에서 라이젠 AI를 지원한다.   라이젠 프로 8000 시리즈     기업용 데스크톱을 위한 AMD 라이젠 프로 8000 시리즈 프로세서는 4nm 공정 기술을 기반으로 최대 8개의 고성능 젠 4 코어를 탑재했으며, 일부 모델은 전용 AI 엔진을 탑재하여 향상된 전력 및 효율과 몰입형 AI 경험을 제공한다.  AMD 라이젠 프로 8000 시리즈 프로세서를 장착한 데스크톱은 주요 비즈니스 애플리케이션 및 데이터에 대한 보다 빠른 액세스와 초고속 데이터 전송, 원활한 워크플로를 위해 최신 DDR5 및 PCIe 4를 지원하며, 일부 모델은 와이파이 7 기반의 차세대 연결성도 제공한다. 라인업 중 최상위 제품인 AMD 라이젠 8700G 프로세서는 고성능 8 코어 16 스레드, 24MB 캐시 및 통합 AMD 라데온 780M 그래픽을 탑재한다. AMD 라이젠 8700G는 AMD의 성능 테스트에서 경쟁 제품 대비 더 적은 전력을 소모하면서도 최대 19% 향상된 성능을 제공하는 것으로 나타났다. AMD는 “AMD 라이젠 7 프로 8799G 프로세서를 탑재한 기업용 데스크톱은 특정 테스트를 기준으로 경쟁사 프로세서에 비해 최대 47% 향상된 시스템 성능과 3배 향상된 그래픽 성능을 제공한다”고 전했다. 이번에 발표된 라이젠 프로 8000 시리즈는 4 코어 8 스레드의 라이젠 3 프로 8300GE부터 8 코어 16 스레드의 라이젠 7 프로 8700G까지 8종이며, 라이젠 5 프로 8600G 및 8600GE, 라이젠 7 프로 8700G 및 8700GE 등 네 종이 라이젠 AI를 지원한다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2024-05-02
[포커스] 오라클, 모던 데이터 플랫폼 및 데이터베이스 혁신 전략 발표
한국오라클이 지난 4월 16일 ‘모던 데이터 플랫폼 및 데이터베이스 혁신 전략’을 주제로 기자간담회를 열고, 융합형 데이터베이스(Converged DB)를 중심으로 한 오라클의 포괄적인 기업 데이터 관리 기술의 현재와 미래에 대해 소개했다.  ■ 박경수 기자   기자간담회에는 ‘DB의 아버지’라 불리는 오라클의 앤디 멘델손(Andy Mendelsohn) DB 서버 기술개발사업부 총괄 부사장이 참석해 ‘데이터, AI 및 앱 개발의 미래’를 주제로 발표하고, 오라클 DB 솔루션이 향후 AI 시대를 주도할 데이터 플랫폼의 미래 시장에서 어떤 가치를 갖고 있는지 설명했다.   오라클 모던 데이터 플랫폼 오라클 모던 데이터 플랫폼(Oracle Modern Data Platform)은 전체 라이프사이클을 간소화하고 더 빠른 속도로 통찰력을 제공한다는 점이 특징이다. 단일 플랫폼 상에서 모든 트랜잭션, 웨어하우스, 분석 및 인공지능(AI)/머신러닝(ML) 자산에 대한 수집, 선별(curation) 및 관리를 통해 기업이 데이터에 대한 더 큰 통제 권한을 얻을 수 있다. 오라클은 온프레미스, 하이브리드, 규제, 퍼블릭 클라우드 솔루션 등 원하는 형식이 무엇이든 지원할 수 있다고 강조했다. 모던 데이터 플랫폼은 기업 조직에 데이터 저장, 처리 및 분석을 위한 통합 환경을 제공하는 중앙 집중형 인프라로, 일반적으로 데이터 웨어하우스, 데이터 레이크, 추출, 변환, 로드(ETL) 파이프라인 및 분석 도구 등의 기술들을 포함하고 있다.  모던 데이터 플랫폼은 표준화 및 통합된 데이터 관리 접근방식을 확립해 기업 조직이 귀중한 통찰력을 얻고, 데이터 기반 의사결정을 내릴 수 있도록 하는 지원하는 것을 주된 목표로 삼는다. 단일 통합 저장소에서 데이터 자산을 중앙 집중형으로 관리해 데이터에 대한 더 쉬운 액세스, 협업 및 통제를 가능케 한다.   ▲ 오라클 모던 데이터 플랫폼 기자간담회 모습   융합형 데이터베이스 중심의 기업 데이터관리 앤디 멘델손 부사장은 “오라클의 데이터베이스 비전은 기업 앱 및 분석 개발 운영을 어떠한 활용 사례 및 규모에서든 수월하게 만드는 것”이라며, “전략적 핵심은 기업의 개발뿐만 아니라, 생성형 AI 및 LLM 결합을 통해 생성까지 쉽게 만드는 것”이라고 말했다. 이러한 비전 달성을 지원하는 두 가지 핵심 축은 ‘융합형 DB’ 및 ‘자율운영 DB’이다. 오라클의 융합형 DB는 23c 버전을 클라우드 환경으로 정식 출시됐고, 곧 사내구축형 환경으로도 출시될 예정이다. 멘델손 부사장은 오라클이 2023년 9월에 발표한 차세대 융합형 DB인 오라클 DB 23c가 기존 관계형 모델과 JSON 및 그래프 모델 간의 통합을 구현하는 혁신을 이뤘다고 소개했다. 또한 최근의 앱은 관계형뿐만 아니라 JSON, 그래프 등 다양한 데이터 유형이 혼합 운영되는 가운데, 개발자는 오라클 DB 23c를 통해 3가지 유형의 데이터 장점을 모두 활용하는 앱을 개발, 운영하고 있으며 그 과정에서 데이터의 일관성을 손쉽게 유지할 수 있다고 설명했다. 융합형 DB는 멀티 모델, 멀티 테넌트 및 멀티 워크로드 DB로, 각 개발팀이 원하는 데이터 모델과 액세스 방법을 지원하면서 불필요한 기능으로 방해받지 않도록 한다. 또한 각 개발 팀이 필요로 하는 모든 워크로드(OLTP, 분석, IoT 등)를 탁월한 성능으로 지원한다.  한편 오라클은 지난해 9월 오라클 데이터베이스23c(Oracle Database 23c)에 AI 벡터를 사용하는 시맨틱 검색 기능을 추가할 계획이라고 발표했다. AI 벡터 검색(AI Vector Search)이라는 기능 모음에는 새로운 벡터 데이터 유형, 벡터 인덱스, 벡터 검색 SQL 연산자 등이 포함되어 있다.   ▲ 오라클의 앤디 멘델손 DB 서버 기술개발사업부 총괄 부사장   생성형 AI 기술과 데이터베이스 접목 멘델손 부사장은 또 오라클 DB 비전과 관련해 생성형 AI를 접목한 융합형 DB(Converged Database)와 이를 구동하는 자율운영 DB(Oracle Autonomous Database)를 통해 모던 앱 및 분석을 생성 및 운영하는 작업이 간소화될 것이라고 강조했다. 이를 통해 융합 개방형 SQL DB가 기존 단일목적 상용 DB를 대체함으로써, 기업 개발자와 IT 전문가가 데이터 통합 시간을 줄이고 혁신에 더 집중하도록 돕는다는 전략이다. 오라클은 생성형 AI 기능을 자사 DB 포트폴리오에 내장하고 있는데, 기업이 오라클의 AI 기반 애플리케이션을 구축하도록 지원하기 위함이다. 대표적인 예로, 기업은 자율운영 데이터베이스 셀렉트 AI(Autonomous Database Select AI) 기능을 사용해 자체 엔터프라이즈 데이터와 생성형 AI가 제공하는 생산성 및 창의성의 장점 모두를 활용함으로써 애플리케이션 개발을 가속화할 뿐만 아니라, 신규 비즈니스 솔루션 구축을 진행할 수 있다. 또한 오라클은 OCI 데이터 사이언스(OCI Data Science)의 기능도 확장하고 있으며, 이를 통해 기업이 허깅페이스(Hugging Face)의 트랜스포머(Transformers) 또는 파이토치(PyTorch)와 같은 오픈소스 라이브러리를 사용해 복수의 LLM을 구축, 훈련, 배포 및 관리하도록 지원한다.   ▲ 차세대 융합형 데이터베이스, 오라클 DB 23c   오라클 글로벌 분산형 자율운영 데이터베이스 오라클 글로벌 분산형 자율운영 데이터베이스(Oracle Globally Distributed Autonomous Database)는 기업이 데이터 레지던시 요건을 충족시키고, 비즈니스 크리티컬 애플리케이션에 생존성을 제공하며, 클라우드급 DB 성능을 제공하도록 지원하는 완전 자동화된 분산형 클라우드 DB다.  또한 Oracle DB 샤드 세트로 분산된 단일 논리적 오라클 DB로, 각 샤드는 논리적 DB 데이터의 하위 집합을 호스팅하는 독립적인 오라클 DB 인스턴스다. 다수 샤드를 하나의 OCI 가용성 도메인, 여러 OCI 가용성 도메인 또는 리전, 또는 상이한 지역의 OCI 리전에서 실행해 각각 성능 극대화, 최상의 가용성 확보 및 데이터 레지던시 요건을 지원할 수 있다. 이 밖에도 기업의 핵심 워크로드 구동에 최적화된 고성능 및 고안정성을 제공하는 동시에, 데이터 주권 및 보안 강화를 지원하는 오라클의 서비스로는 오라클 융합형 DB(Oracle Converged Database), 오라클 자율운영 DB(Oracle Autonomous Database), 오라클 엑사데이터 클라우드앳커스터머(Oracle Exadata Cloud@Customer), MySQL 히트웨이브(MySQL HeatWave) 등이 있다. 또한 오라클은 기업 요구사항을 충족시킬 수 있는 DB 및 분석 서비스에 지속적으로 투자하고 있다.   멀티 클라우드 지원 오라클의 또 다른 전략적 핵심은 '멀티 클라우드 지원'이다. 오라클과 마이크로소프트는 주로 애저(Azure) 클라우드 이용 약정 계약을 맺고 있다. 애저 환경에서 자사의 앱 및 오라클 DB를 함께 운영하길 원하는 양사 고객들을 위해 ‘오라클 데이터베이스앳애저(Oracle Database@Azure)’를 발표했다.  해당 오퍼링은 물리적인 엑사데이터(Exadata) 하드웨어를 애저 클라우드 리전 안에 위치시켜 애저 클라우드 데이터 센터 안에서 바로 엑사데이터 기반 클라우드 서비스를 제공하는 변화를 선보였다. 이를 통해 양사 고객들은 기존 애저 클라우드 서비스에 대한 이용 약정 계약 금액만으로 애저 클라우드 및 오라클 데이터베이스 클라우드 서비스를 모두 사용할 수 있게 됐다. 향후 오라클은 MS 외에도 타 클라우드 기업들과 파트너십 확대를 전략적 목표로 삼고 있으며, 올해 오라클 클라우드 월드에서 관련 내용을 소개할 예정이다.  이번 기자간담회를 통해 오라클은 오라클 DB에 많은 양의 비즈니스 데이터를 보유한 기업들이 강력한 AI 기술 및 SQL을 손쉽게 활용해 간단한 방식으로 데이터 검색을 지원하는데 초점을 맞추고 있다는 것을 알 수 있다. 이를 통해 기업은 내부 독점 데이터를 더 잘 활용하는 것은 물론 이해할 수 있게 될 것으로 전망하고 있다. 또한 표준 SQL 기반으로 제공되는 AI 기술이기 때문에 컴퓨터 공학 부문에서 높은 학위가 없다고 하더라도 SQL을 이용할 수 있는 모든 DBA(데이터베이스 관리자)가 활용할 수 있다는 점도 특징이다.    질의 응답 Q. 오라클 DB의 자연어 질문 및 답변 지원 기능과 관련해, 이를 일반적 챗GPT와 비교 시, 기업 내 환경에서는 일반 사용자들이 경험하는 환각현상 같은 것들이 허용되지 않고 정확해야 하는데 이에 대한 관점은 A. 회사 내 데이터에 대해 LLM 기반 검색은 말씀하신 그런 LLM 모델로는 좋은 답을 제공할 수 없다. 말씀한 모델은 인터넷에 공개된 방대한 데이터에 대해 훈련됐지만, 기업 보유의 프라이빗 데이터에 대해서는 전혀 알지 못하기 때문이다. 비즈니스적인 질문을 비즈니스 데이터에 대해 할 경우에 자연어로 질문을 할 때 LLM이 올바른 SQL 질문을 만들 수 있도록 도울 수 있는 데이터 강화가 필요하다. 그래서 사용자의 질문의 맥락에 따라서 가장 적절하다고 생각되는 데이터베이스 스키마를 생성 및 제공해야 한다.  이에 오라클은 LLM이 SQL 생성 후 적절한 오라클 데이터베이스에 있는 스키마만 참조할 수 있도록 하며, 인터넷 공개 데이터로 답변하지 않도록 한다. 애널리스트들이 자주 묻는 질문을 알고 있기 때문에, 이것을 기반으로 관계형 뷰를 만들어서 여기서 가장 자주 묻는 질문에 해당하는 스키마 생성 및 이를 LLM에 전송해서 기업 맥락에 맞는 답변할 수 있도록 보완한다.    Q. 자율운영 DB 개념과 다른 리전에서 고가용성 및 레지던스 확보를 지원하는 기능에 대해 설명해 달라 A. 글로벌 분산형 자율운영 DB는 전 세계적으로 각국 정부가 데이터 주권 규제 강화하고 있는 추세를 지원하고자 출시했다. 예를 들어 현대기아자동차 같이 글로벌하게 운영하는 기업은 전 세계 고객에 대한 DB를 갖고 있다. 데이터 주권 규제로 인해 고객 DB를 국가별로 분산해서 나눠서 관리해야 하는 의무가 있다. 하나의 단일한 고객 DB를 통합해서 관리할 수 없고, 중국, EU 등으로 나눠서 관리해야 하며 이것을 데이터베이스 샤딩이라는 용어로 표현하고 있다. 그래서 23c에서 글로벌 샤딩을 쉽게 만드는 기술을 포함하고 있다.   Q. 파운데이션 LLM 사업을 직접 하지 않는 이유와 최근에 등장하는 경쟁력 있는 MS 오픈 AI, 구글 제미나이 등에 모델을 올리기 어려운 점에 대한 관점은 A. 챗GPT 같은 파운데이션 LLM 모델 개발 구축에 많은 비용이 들며, 시장의 무료 모델을 쓸 수 있기 때문이다. 또한 셀렉트 AI 등 오라클이 AI로 LLM 활용을 지원하는 기술들 중 좋은 API로 연결해 시중의 인기 있는 널리 사용되고 있는 LLM 모델과 잘 연동되고 지원하도록 기술을 고도화하고 있다. 오라클 클라우드 관점에서 오픈AI 등 LLM 벤더와 파트너십을 맺어서 오라클 클라우드를 사용하도록 움직이고 있다. 말하자면 프라이빗 LLM 만들 수 있도록 지원하는 것이다. 현재 AI 커뮤니티에서 굉장히 많은 개발 움직임이 있는데, 그 중 하나가 업무별로 특화된 LLM을 만드는 것이다. 이 경우 운영 비용이 굉장히 저렴해질텐데, 예를 들면 SQL 생성에 특화된 LLM 만든다고 했을 때, 이런 쪽과 협력해서 특화된 기술을 저렴한 비용으로 사용할 수 있도록 하는 협력을 진행하고 있다.      ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2024-05-02
오토데스크-네메첵, “건축 설계 및 건설 산업을 위한 개방형 워크플로 발전시킨다”
오토데스크는 건축, 엔지니어링, 건설 및 운영(AECO) 및 미디어 및 엔터테인먼트(M&E) 산업의 개방형 협업과 효율성 향상을 위해 네메첵 그룹과 상호운용성 계약을 체결했다고 발표했다. 이번 협약을 통해 양사는 클라우드 및 데스크톱 제품 간의 기존 상호운용성을 강화하고, 솔루션 간 원활한 정보 교환을 개선할 수 있을 것으로 기대하고 있다. 건물과 고속도로 등을 건설하거나 미디어 애셋을 제작할 때 클라우드 연결 도구로 작업하면 자동화를 강화하고 프로젝트의 모든 단계에서 더 나은 결정을 내릴 수 있는 인사이트를 얻을 수 있다. 하지만 소프트웨어와 파일의 비호환성으로 인해 사람, 프로세스, 데이터가 사일로화되어 비효율적인 워크플로를 초래하는 경우가 많다. 오토데스크와 네메첵의 워크플로를 최적화하면 하나의 클라우드 플랫폼 또는 데스크톱 애플리케이션에서 다른 애플리케이션으로 데이터를 보다 쉽게 전송할 수 있으므로 세부 정보를 적시에 적절한 사람에게 전달할 수 있게 된다. 이러한 상호운용성은 개방형 애플리케이션 프로그래밍 인터페이스(API) 및 웹 서비스 세트인 오토데스크 플랫폼 서비스(APS)를 기반으로 하며, 이를 통해 네메첵의 디트윈(dTwin), 블루빔 클라우드(Bluebeam Cloud), BIM클라우드(BIMcloud) 및 BIM플러스(BIMplus)를 오토데스크의 포마(Forma), 퓨전(Fusion) 및 플로(Flow) 등 산업용 클라우드와 설계 솔루션에 연결할 수 있게 된다. 이를 통해 고객과 파트너는 각 솔루션에서 데이터와 기능을 연결할 수 있으므로 사용자는 자동화, AI 및 인사이트를 통해 프로젝트를 최적화하는 데 집중할 수 있다.     이번 상호운용성 계약은 건축 자산 산업에서 디지털 데이터의 접근성, 유용성, 관리 및 지속 가능성을 개선하여 BIM(빌딩 정보 모델링)의 이점을 확장하는 빌딩스마트의 오픈BIM(openBIM)과 같은 통합 및 개방형 산업 표준에 대한 노력을 보여준다. 사일로 없는 에코시스템을 구축하여 협업함으로써 팀은 엔드 투 엔드 워크플로에서 동일한 디지털 모델로 작업할 수 있다. 이번 계약에 따라 오토데스크와 네메첵 그룹은 양사의 API와 산업 클라우드에 대한 상호 액세스를 제공한다. 개발자는 오토캐드, 레빗, 3ds 맥스, 마야 등 오토데스크 솔루션과 오토데스크 포마, 오토데스크 건설 클라우드에 올플랜, 아키캐드, 블루빔, 맥슨 원, 벡터웍스 등 네메첵의 관련 클라우드 플랫폼과 솔루션과 비슷하게 액세스할 수 있게 된다. 이를 통해 양사는 기존의 데이터 교환을 개선하고 분야와 산업을 아우르는 새로운 데이터 중심 워크플로를 열 수 있을 것으로 기대하고 있다. 오토데스크의 에이미 번젤(Amy Bunszel) AEC 솔루션 부문 수석 부사장은 “오토데스크는 데이터를 활용하고 프로젝트 팀을 연결하는 개방형 통합 클라우드 기반 솔루션을 구축하는 데에 전념하고 있다”면서, “오토데스크의 클라우드 및 데스크톱 솔루션에 네메첵 상호 운용성을 확장하는 것은 고객의 워크플로를 최적화하고 더 나은 프로젝트 결과를 창출하는 데 큰 도움이 될 것”이라고 전했다. 네메첵 그룹의 마크 네제(Marc Nézet) 최고 전략 책임자(CSO)는 “오픈BIM, 상호 운용성, 개방형 산업 표준을 지원하는 것은 네메첵 그룹의 DNA에 깊이 뿌리내리고 있다. 오토데스크와의 상호 운용성 계약은 고객이 모든 프로젝트 환경과 소프트웨어 에코시스템에서 작업할 수 있는 능력을 제공하여 궁극적으로 더 나은 건설 세계를 만들기 위한 행보”라고 설명했다.
작성일 : 2024-04-29
지멘스, 하드웨어 기반 반도체 검증 솔루션 ‘벨로체 CS’ 발표
지멘스 디지털 인더스트리 소프트웨어, 지멘스 EDA 사업부는 하드웨어 기반의 인증 및 검증 시스템인 벨로체 CS(Veloce CS)를 출시했다. 하드웨어 에뮬레이션, 엔터프라이즈 프로토타이핑 및 소프트웨어 프로토타이핑을 통합한 벨로체 CS는 에뮬레이션을 위해 제작된 지멘스의 새로운 크리스탈 가속기 칩(Crystal accelerator chip)과 엔터프라이즈 및 소프트웨어 프로토타이핑을 위한 AMD 버설 프리미엄(Versal Premium) VP1902 FPGA adaptive SoC(시스템 온 칩) 등 두 가지 첨단 집적 회로(IC)를 기반으로 구축되었다. 벨로체 CS 솔루션에는 ▲ 에뮬레이션용 벨로체 스트라토 CS 하드웨어(Veloce Strato CS hardware for emulation) ▲ 엔터프라이즈 프로토타이핑을 위한 벨로체 프리모 CS 하드웨어(Veloce Primo CS hardware for enterprise prototyping) ▲ 소프트웨어 프로토타이핑을 위한 벨로체 proFPGA CS 하드웨어(Veloce proFPGA CS hardware for software prototyping) 등 세 가지 새로운 제품이 포함된다. 세 플랫폼 모두에서 일관성, 속도 및 모듈성을 위해 설계된 벨로체 CS 시스템은 4000만 개의 게이트부터 최대 400억 개 이상의 게이트를 통합하는 설계까지 지원한다. 또한 벨로체 CS는 각 작업마다 고유한 요구 사항이 있기 작업에 적합한 툴을 선택하여 향상된 가시성과 일관성으로 전체 시스템 워크로드를 실행한다. 이를 통해 프로젝트 완료 시간을 줄이고 검증 주기당 비용을 절감할 수 있다.     지멘스는 주요 고객 및 파트너와 협력하여 하드웨어와 완전히 통합되는 새로운 소프트웨어 아키텍처를 개발했다. 벨로체 스트라토 CS는 기존 벨로체 스트라토에 비해 에뮬레이션 성능이 최대 5배까지 향상되어 높은 가시성을 유지하며, 4000만 게이트(MG)에서 400억 개 이상의 게이트(BG)로 확장할 수 있다. AMD의 최신 버설 프리미엄 VP1902 FPGA를 기반으로 하는 벨로체 프리모 CS는 정합적인 엔터프라이즈 프로토타이핑 시스템으로, 역시 40MG에서 40+BG까지 확장할 수 있다. 벨로체 스트라토 CS와 벨로체 프리모 CS 솔루션은 모두 동일한 운영체제에서 실행되므로, 플랫폼 간에 원활하게 이동할 수 있는 자유도와 함께 정합성을 제공한다. 따라서 램프업(ramp up), 설정 시간, 디버그 및 워크로드 실행을 가속화할 수 있다. 또한, 벨로체 proFPGA CS는 AMD 버설 프리미엄 VP1902 FPGA 기반 적응형 SoC를 활용하여 빠르고 포괄적인 소프트웨어 프로토타이핑 솔루션을 제공하며, 하나의 FPGA에서 수백 개까지 확장할 수 있다. 향상된 성능을 바탕으로 유연한 모듈식 설계와 함께 고객이 펌웨어, 운영 체제, 애플리케이션 개발 및 시스템 통합 작업을 가속화할 수 있도록 지원한다. 벨로체 CS는 최신 AMD 에픽(EPYC) CPU 기반 HP DL385g11 서버와 함께 실행할 수 있는 인증을 받았다. 전체 벨로체 CS 시스템은 간편한 설치, 저전력, 뛰어난 냉각, 컴팩트한 설치 공간을 위해 최신 데이터센터 요구 사항을 완벽하게 준수하는 모듈식 블레이드 구성으로 제공된다. 또한 벨로체 proFPGA CS 솔루션은 데스크톱 랩 버전을 제공하여 추가적인 사용자의 유연성을 높여준다. 벨로체 스트라토 CS 시스템은 현재 일부 파트너 고객에게 제공되고 있으며, 세 가지 하드웨어 플랫폼의 일반 출시는 2024년 여름으로 예정되어 있다. 벨로체 CS 시스템은 클라우드 지원과 함께 일반 출시될 예정이다. 지멘스 디지털 인더스트리 소프트웨어의 장 마리 브루넷(Marie Brunet) 하드웨어 기반 검증 부문 부사장 겸 총괄 매니저는 “벨로체 CS는 세 가지 시스템이 완벽하게 일치하는 고속 모듈식 하드웨어 기반 검증 시스템을 제공한다”면서, “벨로체 CS 시스템을 통해 우리는 진보된 전자 제품을 제공하는 데에 필수적인 역할을 하는 하드웨어, 소프트웨어 및 시스템 엔지니어의 특정 요구 사항을 해결하고 있다. 작업에 적합한 툴을 제공함으로써 전체 검증 프로세스의 속도를 높이고 총 소요 비용을 절감하여 수익성을 높일 수 있는 벨로체 CS의 혁신을 실현하고 있다”고 전했다.
작성일 : 2024-04-25
매스웍스코리아, ‘제4회 매트랩 대학생 AI 경진대회’ 개최
매스웍스는 국내 대학생들이 인공지능(AI) 기술 활용 능력을 개발하고, 전문 분야별 경쟁력을 강화할 수 있도록 ‘제4회 매트랩(MATLAB) 대학생 AI 경진대회’를 개최한다고 밝혔다. 대회 참가자들에게는 글로벌 기업의 엔지니어 및 과학자가 AI 기반 시스템 조성에 활용하는 자사의 대표 제품인 ‘매트랩’ 라이선스가 참가기간 동안 무료로 제공된다. 매스웍스는 지난 2021년부터 올해까지 4년째 본 대회를 통해 대학생들이 보다 쉽게 인공지능 기술을 활용해 문제를 해결할 수 있도록 소프트웨어를 지원해 왔다. 2023년에는 2022년 대비 약 2 배수의 학생들이 참가해 매트랩을 통해 AI 애플리케이션 및 모델을 구현했다. 국내 대학교에 재학 중인 학생이라면 전공에 상관없이 누구나 개인 또는 팀으로 대회에 참가할 수 있다. 대회 참가를 희망하는 학생들은 실제 산업 현장에서 발생하는 문제나 기존의 관행적 프로세스를 선정해 이를 해결 혹은 개선할 AI 애플리케이션 및 모델을 설계할 수 있어야 한다. 올해 매스웍스는 보다 많은 참가자들의 참여를 독려하고 뛰어난 연구 결과를 도출해 내기 위해 상금 규모를 2배 늘렸다. 최종 결선에 진출한 세 팀 중 1등에게는 200만원, 2등 100만원, 3등 50만원의 우승 상금이 지급된다. 대회 심사위원들은 이번 대회에서 매트랩 및 매스웍스의 툴 활용 숙련도를 평가하고 AI의 메인 툴로서 워크플로의 각 단계에서 매트랩의 어떤 기능을 사용했는지 확인할 계획이다. 또한, 올바른 사용과 연산의 타당성 평가를 통해 참가자의 기술 역량 수준을 보다 상세히 심사할 예정이다. 매스웍스코리아의 김경록 교육 기관 세일즈 매니저는 “최근 의료 산업 및 안전이 중요한 산업 분야에서 인공지능 모델이 확대 적용되면서, 매트랩도 이를 지원하는 딥러닝과 데이터의 효과적 처리에 활용되고 있다”면서, “이번 경진대회를 통해 학생들이 인공지능이 적용되는 전문 분야의 당면 과제를 파악해 보고, 직접 솔루션을 만들어 실행하고 검증하는 기회를 통해 성취감을 느껴 보길 바란다”고 말했다.  
작성일 : 2024-04-25
마이크로소프트, 국내 기업의 혁신 돕는 AI 트랜스포메이션 사례 공개
마이크로소프트가 생성형 AI 기술로 다양한 국내 산업의 고객 서비스 혁신과 비즈니스 성장을 지원하며 AI 트랜스포메이션 혁신 사례를 구축하고 있다고 소개했다. 마이크로소프트는 AI 기술이 조직 경쟁력 유지를 위한 필수적인 비즈니스 요소가 될 것으로 전망하고 있다. 마이크로소프트가 의뢰한 글로벌 시장 조사기관 IDC의 연구 결과에 따르면 조사에 참여한 응답자 71%가 이미 회사에서 AI를 사용하고 있으며, 이들은 평균적으로 1년 2개월 만에 AI 투자에 대한 수익을 실현하고 있는 것으로 나타났다. 이 연구는 전 세계 2100명 이상의 비즈니스 리더와 의사 결정권자를 대상으로 실시됐다. 마이크로소프트는 애저 오픈AI 서비스(Azure OpenAI Service)를 통해 향상된 컴플라이언스, 데이터 보안 강화, 확장성, 책임 있는 AI 등 차별화된 서비스를 제공하고 있다. 이 서비스는 전 세계 1만 8000개 이상의 조직과 포춘 500대 기업 중 절반 이상이 사용하며 전 세계 조직의 AI 트랜스포메이션 속도를 가속화하고 있다. 마이크로소프트는 국내에서도 자사의 AI 기술을 도입해 업무 프로세스를 혁신하고 새로운 비즈니스 모델 개발에 나서는 기업들이 늘고 있다고 전했다. LG전자의 H&A본부는 생성형 AI 기반 빅데이터 분석 솔루션인 찾다(CHATDA)를 도입해 고객 요구 사항을 효과적으로 파악하고 사용자 경험을 개선했다. 이 시스템은 마이크로소프트 애저 환경과 애저 오픈AI 서비스를 활용해 데이터 보안과 안정성을 강화한다. 또한, 자연어 처리 기능으로 현업의 분석 요구사항에 부합하는 데이터를 정밀하게 선별하고, 이를 기반으로 분석 코드를 자동 생성 및 실행한다. 이를 통해 법무검토, 데이터 탐색, 가공 분석에 소요되던 시간이 평균 5일에서 30분으로 단축돼 업무 효율성이 향상됐다.     AI 서비스 플랫폼 기업 뤼튼테크놀로지스는 애저 오픈AI 서비스와 프로비전드 스루풋(Provisioned Throughput : PTU)를 도입해 이전보다 두 배 이상 증가한 사용자 트래픽을 안정적으로 처리하고 있다. 이러한 운영 안정성과 지속적인 서비스 개선을 바탕으로, 뤼튼 서비스의 고객 만족도를 나타내는 NPS(Net Promoter Score) 점수가 30% 이상 향상됐다. 크래프톤의 AI 전문 스튜디오인 렐루게임즈도 애저 오픈AI 서비스를 도입해 새로운 게임 개발에 나서고 있다.  특히 오는 6월 출시를 앞둔 '언커버 더 스모킹 건'은 플레이어가 용의자와 대화하며 사건을 해결하는 추리 게임으로, 플레이어의 자유도를 높여 실제와 유사한 현실감 있는 게임 환경을 제공한다. 렐루 게임즈는 이를 구현하기 위해 대형언어모델(LLM)의 애플리케이션 프로그래밍 인터페이스(API)를 70% 이상 사용하고 있다.  배달 플랫폼 ‘배달의 민족’을 운영하는 우아한형제들은 애저 오픈AI 서비스를 활용해 고객 상황에 맞는 메뉴를 제안하는 ‘메뉴뚝딱AI’ 서비스를 선보여 고객 편의성을 높였다. 이 서비스는 고객이 작성한 리뷰를 분석해 음식 특성과 주문 성향을 파악하는 키워드를 추출하고, 시간대·식사 동반자·상황·맛 등을 고려해 안전성 검증을 거친 120종의 컨텍스트를 통해 사용자에게 맞춤형 메뉴를 추천한다. 융합 사고력 기업 크레버스는 마이크로소프트 AI 솔루션을 도입해 자동으로 과제를 평가하고 개인 맞춤형 피드백을 제공하는 시스템을 구축, 학생들의 만족도를 크게 높였다. 이 과정에서 평균 3.5일이 걸렸던 과제 채점 시간이 7초로 단축돼 실시간 피드백을 제공하고 있으며, 운영 비용도 약 85% 절감될 것으로 기대하고 있다. 반려로봇 개발기업 효돌은 AI 기반 대화형 AI 돌봄 로봇 ‘효돌 2.0’에 애저 오픈AI 및 애저 코그니티브 서비스(Azure Cognitive Services)를 도입해 음성 엔진을 개선하고 대화 기능을 고도화했다. 이를 통해 사용자와의 친밀감이 기존 대비 10% 이상 증가됐으며, 맞춤형 신경망(Custom Neural) 기반 STT/TTS 엔진을 활용해 시니어층의 우울증이나 치매 징후를 조기에 발견하고 정신 건강 상태를 진단할 수 있게 됐다. 한국마이크로소프트의 조원우 대표는 “AI 기술은 한국의 산업 전반에 긍정적인 변화를 가져오고 있다”며, “앞으로도 마이크로소프트는 가장 신뢰할 수 있는 AI 트랜스포메이션 파트너로서 국내 기업들이 AI를 통해 업무 프로세스를 혁신하고, 더 나은 고객 경험을 제공할 수 있도록 적극 지원할 것”이라고 전했다.
작성일 : 2024-04-22